iT邦幫忙

2025 iThome 鐵人賽

DAY 8
0
AI & Data

AI 營養師 + Web3 數位健康護照系列 第 8

Day8. 使用 Hugging Face 預訓練模型(Pre-trained Models)打造個人專屬 AI 營養顧問

  • 分享至 

  • xImage
  •  

本日重點

  • 介紹 Hugging Face 平台與預訓練模型生態系
  • 如何尋找並選用適合的 AI 預訓練模型做營養顧問應用
  • 預訓練模型下載、載入與快速評測流程
  • 生活化案例:用 Hugging Face 直接生成營養分析建議
  • 實作技巧與模型選型經驗分享

一、自行訓練模型的挑戰

在理想狀態下,當然會想要像前幾天一樣,通通「自己來」:從零開始蒐集資料、設計模型,然後一步一步把它訓練到能用。但現實很骨感,這條路很容易把人榨乾(也會把時間跟錢錢都燒光光QQ)。

1. 成本真的太高

  • 語料需求數百 GB 起跳,還要多張 A100。
  • 雲端帳單常常讓人懷疑自己是不是不小心挖了比特幣。
  • 對中小團隊來說,這種投資很多時候「寫計畫書時很瀟灑,真的執行就欲哭無淚」。

2. 開發週期又長又痛苦

  • NLP 超吃資料品質,清理資料就能清到懷疑人生。
  • 超參數調整更像玄學,改一次學習率就像在算命。
  • 有時候跑了一晚,結果發現 accuracy 掉到谷底,當下只想躺在房間地板上反思人生:「我是不是選錯題目了?」

3. 維護也很累

  • 營養健康領域更新太快,新食材、新研究、飲食指南天天更新。
  • 模型如果不持續更新,很快就會失真。
  • 長期維護 = 長期燒錢與燒腦。

二、Hugging Face:AI 界的 GitHub

這時候 Hugging Face 的出現,猶如耶穌復活。

1. 認識 Hugging Face

Hugging Face 被譽為「AI 界的 GitHub」,不僅是一個模型分享平台,更是一個推動開放人工智慧生態的核心力量。自 2016 年成立以來,Hugging Face 從一個聊天機器人新創公司,蛻變為全球最重要的開源 AI 平台之一。它重新定義了研究與實作的邊界,使模型的開發、分享與重現(reproducibility)變得像程式碼協作一樣自然。

Hugging Face 的價值,在於它將「開源」與「社群」結合成一股強大的動能。透過其平台,開發者能自由地上傳、下載與測試數十萬個模型與資料集,涵蓋自然語言處理(NLP)、電腦視覺(CV)、語音辨識、多模態學習等領域。這樣的開放架構不僅加速了研究成果的流通,也讓 AI 的民主化(AI democratization)真正落地。

其中最具代表性的產品 Transformers 套件,讓深度學習模型的應用不再需要繁瑣的訓練流程與龐大的運算資源。開發者只需幾行程式,就能輕鬆體驗文本生成、機器翻譯、情緒分析、影像分類等任務。隨著後續推出的 Datasets、Evaluate、以及以互動式模型展示為核心的 Spaces,Hugging Face 已不只是工具提供者,更是一個完整的 AI 生態系,連結研究者、開發者與企業。

2. 怎麼使用?

  • 流程示意圖

https://ithelp.ithome.com.tw/upload/images/20251013/20129220lomJX06mHd.jpg
(圖片由 Perplexity 協助生成)

step 1. 找模型

在 Hugging Face 上搜「nutrition」「food」「health」之類的關鍵字,能找到不少模型。常見的應用:

  • 食材分類
  • 熱量/營養素預測
  • 飲食建議生成

step 2. 開箱即用:用 Transformers 一行指令體驗 AI 魔法

Hugging Face 的核心精神之一,就是讓 AI 模型「人人可用」。透過 transformers 套件,不需要複雜的訓練流程,就能直接呼叫已訓練好的模型進行推論。以下用程式碼說明如何使用文字分類(text classification)模型:

from transformers import pipeline

classifier = pipeline("text-classification", model="your-chosen-model")
result = classifier("這是爌肉飯,有白飯、爌肉,以及筍乾")
print(result)

step 3. 在地化微調(Fine-tuning):讓模型更有台灣味

在實際應用中,模型雖然強大,但往往「不太理解真實世界」。模型訓練資料主要還是來自英文或國際語料,它就可能會誤解「芋頭」、「番薯葉」、「土豆(花生)」這類台灣在地食材的語意。這時候,就需要透過微調(fine-tuning) 來讓模型更貼近你的應用場景。

  • 認識「微調(Fine-tuning)」

微調是一種「在既有模型上進行再訓練」的技術。
不必從零開始訓練整個模型,而是利用現有的預訓練模型(pre-trained model),再用少量與任務相關的資料進一步訓練。
這樣模型既能保留原本的語言理解能力,又能快速學會新領域的知識。

  • 舉個例子:

(1) 原始模型學會了「食物」這個概念。

(2) 透過微調,可以進一步讓它學會「滷肉飯」與「爌肉飯」的區別、知道在台灣「鹹酥雞」跟「炸雞」是不一樣的,這些都是台灣夜市文化的重點。

(3) 簡單的說,微調讓 AI 從「懂語言」變成「懂人話」。
只要提供幾百筆台灣食物相關的標註資料,就能讓模型更準確地理解在地語意與文化脈絡。這種「在地化調校」的過程,正是讓 AI 真正貼近使用者生活的關鍵。


step 4. 部署與分享

在完成模型訓練與微調後,下一步就是「部署(deployment)」:也就是讓更多人能在網頁上直接體驗成果。過去,部署 AI 模型往往需要伺服器設定、後端 API 開發與前端整合,但現在透過 Hugging Face Spaces、Gradio、或 Streamlit,開發者能以極低門檻,快速打造互動式的 AI 展示頁面。

明天(Day9)會有 Spaces 的部署實作


3. 好處在哪?

  • :不用從零開始。
  • :每次看到雲端帳單時,血壓不會再飆高。
  • 社群資源:社群很活躍,踩過雷的人超多,少走很多冤枉路。

4. 但是還是有缺點

  • 資料來源疑慮:有些模型訓練資料來源不明,尤其在醫療、營養領域要特別小心。
  • 客製化有限:如果需求差太多,還是得自己動手訓練。
  • 平台依賴:萬一 Hugging Face 政策改版、模型下架,就得自己想辦法。

三、小結:

如果有無限資源,誰不想從零開始訓練模型。但「理想很美好,現實很殘酷」,相比之下,直接用 Hugging Face 的預訓練模型才是比較務實的選擇。

預訓練模型 VS 自行訓練模型:

項目 Hugging Face 預訓練模型 自行訓練模型
成本 低(多免費/公開模型) 高(雲端/GPU租用/工程人力)
速度 極快(即取即用) 較慢(資料收集+標註+訓練)
社群支援 活躍、官方支援、自動更新 需靠自己/社群發問
客製化程度 中(可微調但限制多) 高(全流程自定義)
資料來源透明度 高(公開、附註出處) 視自己設計,彈性大但需自管

四、延伸閱讀


上一篇
Day7. 從零開始打造個人專屬 AI 營養顧問 Ep. 6:Google Colab 實作台灣夜市小吃的YOLO模型
下一篇
Day9. Hugging Face Spaces 部署實作 Ep. 1:Gradio Chatbot
系列文
AI 營養師 + Web3 數位健康護照35
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言